-
1 метод вложенных цепей Маркова
1) Mathematics: embedded Markov chains technique, method of embedded Markovian chains2) Quality control: imbedded Markov chain technique, imbedded Markov-chains methodУниверсальный русско-английский словарь > метод вложенных цепей Маркова
-
2 слой
m. layer, band, shell, fiber, class (Markov chains), stalk, layer, leaf; пограничный слой, boundary layer -
3 слой
1) General subject: coat, coating (краски и т. п.), coating (краски и т.п.), fiber, fibre, flake, layer, plier, ply, region (атмосферы), strata (общества), stratum3) Medicine: panniculus (ткани), sheet, stratum (pl strata), thickness4) Obsolete: nation5) Military: (покрышки) ply6) Engineering: barrier (в полупроводнике), coat (покрытие), coating (покрытие), course (покрытия), fold, lamella, lay, mat, patch, scuff resisting layer, shell, slice, thickness (напр. ткани), zone (древесины)7) Agriculture: (гидро) damp course9) Construction: course (гравия и т. п.), (налагаемый) lay (напр. краски), ply (напр. фанеры), stratum (грунта), tier, shift10) Mathematics: class (Markov chains), director space, leaf, stalk12) Law: group14) Architecture: lay (штукатурки или краски)15) Mining: lift (при слоёвой выемке с закладкой), seam, shelving, slice (при слоевой выемке), strip, water packer17) Forestry: damp course (гидро)изолирующий, lamina (напр. древесины), strand18) Metallurgy: course, course (футеровки)19) Polygraphy: (тонкий) film21) Oil: bed (катализатора), stratum (породы)22) Astronautics: lamina, lamination24) Geophysics: geologic horizon25) Mechanic engineering: film27) Ecology: horizon28) Welding: pass (многослойного шва)29) Sakhalin energy glossary: stratus30) Oil&Gas technology valve31) Microelectronics: plating32) Polymers: veneer33) Automation: bedding, ply (напр. конвейерной ленты)35) Oceanography: apron37) Cables: ply (многослойного материала)38) Makarov: backing, bank, bed (напр. частиц катализатора), binder, coat (напр. копировальный, эмульсионный), coating (краски), element (об-ва), lamina (напр древесины), lamina (постоянной толщины и плотности), lay (штукатурного раствора, краски), ledge, mounting, ply (материала), ply (многослойного материала, напр. стеклопластика, фанеры), ply (напр. картона), pool (ртутный), range (общества), ring, section (населения), sheet (воды, снега и т.п.), slab (толстый параллельный)39) Building materials: ct. (грунтовки, лакокрасочного покрытия - сокр. от coat)40) Cosmetology: tissue (to form new tissue- формировать новые слои) -
4 теория цепей Маркова
Mathematics: theory of Markov chainsУниверсальный русско-английский словарь > теория цепей Маркова
-
5 цепи Маркова
Makarov: Markov chains -
6 слой
* * *m. layer, band, shell, fiber, class (Markov chains), stalk, layer, leaf;
пограничный слой - boundary layer -
7 слой
m.layer, band, shell, fiber, class (Markov chains), stalk, layer, leaf
См. также в других словарях:
Markov chains — probability theory based on sequences of random variables (named for mathematician Andrei Markov) … Eponyms, nicknames, and geographical games
Examples of Markov chains — This page contains examples of Markov chains in action. Contents 1 Board games played with dice 2 A center biased random walk 3 A very simple weather model 3.1 Pr … Wikipedia
Markov decision process — Markov decision processes (MDPs), named after Andrey Markov, provide a mathematical framework for modeling decision making in situations where outcomes are partly random and partly under the control of a decision maker. MDPs are useful for… … Wikipedia
Markov Chain Monte Carlo — Verfahren (kurz MCMC Verfahren; seltener auch Markov Ketten Monte Carlo Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow Kette,… … Deutsch Wikipedia
Markov chain — A simple two state Markov chain. A Markov chain, named for Andrey Markov, is a mathematical system that undergoes transitions from one state to another, between a finite or countable number of possible states. It is a random process characterized … Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia